查看原文
其他

勤能补拙的“笨小孩”AI存在什么技术瓶颈?有哪些局限性?未来AI的六大发展趋势!《追AI的人》第16期直播回放




💜 人工智能发展所遇到的瓶颈问题?💜 未来人工智能发展的六个方向?

《追AI的人》系列直播第16期邀请了重庆邮电大学校长,国家万人计划科技创新领军人才高新波老师分享《人工智能的未来发展趋势分析》


以下为直播的文字回放,共9684计字。


直播详情回顾

解读"别人家的孩子"AI以及未来人工智能发展的六个方向?《追AI的人》第16期

高 新 波

高新波,重庆邮电大学校长,国家万人计划科技创新领军人才,新世纪百千万人才工程国家级人选,长江学者特聘教授(2012-2017),国家杰出青年科学基金获得者,重庆英才优秀科学家,科技部重点领域创新团队负责人、教育部创新团队负责人,教育部科技委委员、教育部高等学校计算机类专业教学指导委员会委员。


主要从事人工智能、机器学习、计算机视觉、模式识别等领域的研究和教学工作,出版专著教材7部、发表学术论文300余篇。获国家创新争先奖状、国家自然科学二等奖1项、省部级科学技术一等奖5项。


框架要点



一、人工智能发展的技术瓶颈
二、未来人工智能发展趋势
三、总结与展望




今天人工智能正在引领新一轮的科技革命,也就是第四次工业革命。


第一次工业革命发生在1760年代到1860年代,它的标志就是蒸汽机的发明;第二次工业革命发生在1870年代到1900年代,它的标志是电气与自动化时代的发电机;第三次工业革命发生在1970年代到2000年代,计算机和互联网的广泛应用标志着我们进入了信息化时代。随着人工智能的发展,我们进入到了智能化时代。四次工业革命分别增强了人的体力,提高了工作效率,提升了感知能力,直到今天提升了我们的认知能力。


今天的人工智能正在引领新一轮的科技革命,但是在人工智能的发展史上却经过了三起两落。从1956年达特莫斯会议作为人工智能的起点,遇到了人工智能发展的春天,但是到了60年代之后,它进入了低谷,到了80年代又一次兴起,90年代初又一次进入了寒冬,今天又开始了蓬勃发展的时期。

有人就预测未来人工智能可能还会遇到第三次低谷,当然也不一定是低谷,也可能是因为发展遇到了平台期,当然我们不希望有第三次低谷,或者希望下一个低谷能够晚一点到来。

那么今天人工智能发展到什么程度了?🤔️

在特定领域里面,人工智能应当说是取得了突破性的进展。面向特定领域的人工智能,也称专用人工智能,由于它的应用背景需求比较明确,领域知识积累比较深厚,建模计算简单可行,因此取得了人工智能的单点突破。

例子一:

在局部智能水平的单项测试中,人工智能很多地方都超过了人类智能。AlphaGo包括AlphaGo Zero,它是碾压人类顶尖棋手。在1998年左右,我到日本去学习博弈论时,那时正好deep blue打败了卡斯帕罗夫。当时,美国时代周刊上刊文预测,在围棋上如果要机器打败人,需要至少100年。结果不到100年,甚至不到20年,在围棋方面机器也打败了人类,可见人工智能发展速度之快。

Alpha

例子二IBM Watson

在知识竞赛里面,IBM Watson也战胜了人类冠军。


例子三:DeepStack

DeepStack德州扑克方面也已经达到了人类职业玩家水平。有人提议让它试一试中国桥牌,可能更复杂一些。但是可以预见的是,在这些规则比较明确的游戏上,人工智能很快都会超过人类。

Al

智能+X


人工智能在单点上取得突破,“人工智能+”已经成了我们今天各行各业的发展趋势,智能+x的应用范式日趋成熟。人工智能向各行各业快速地渗透融合,进而重塑整个社会的发展,这是人工智能引领第四次技术革命的最主要的表现形式。

人工智能+制造,我们称它为智能制造。人工智能+交通,我们称作智能交通或者智慧交通,人工智能+安防就是智能安防,人工智能+医疗及时智慧医疗等。目前,人工智能已经渗透到了我们生产生活的方方面面,真正做到了为经济赋能,为生活添彩。

那么人工智能发展的真实水平到底是怎么样的?我们从两个维度来衡量智能水平:一个维度是看它的勤奋程度,另一个维度是看它的聪明程度。


我们以评价孩子的标准来看,从上图两个维度来看,家长口中自己家的孩子是又懒又笨,其实家长眼中的孩子确实勤奋但不够聪明。一般而言,家长心目中总是期望自己的孩子能够聪明一些,但不要太辛苦。

而家长看到别人家的孩子总是又聪明又勤奋,所以用这两个维度的参数划成4个区间,分别是家长心中期待的孩子,家长口中自己家的孩子,家长眼中自己家的孩子,以及别人家的孩子。


人工智能现在到底是自己家的孩子还是别人家的孩子?从目前人工智能的发展状况来看,它恰恰是我们自己家的那个孩子,它勤奋,但还是不够聪明,我们希望未来的人工智能成为别人家的孩子,又聪明又勤奋。



那么聪明和勤奋这两个维度有什么不一样?聪明往往是指一个人机智灵活,学习当中具有举一反三,触类旁通的能力,这样的人不费多少力气就能够掌握某种知识和技能,而且善于解决复杂问题,尤其是以前没有处理过的复杂问题,这就是聪明。而勤奋则是指认认真真的努力干好每一件事,不怕吃苦,踏实肯干,这样的人默默持久的坚持,有一种水滴石穿,永不言弃的精神,这就是聪明和勤奋的不同。

但是我们往往认为聪明是一种天赋,这个小孩天生脑袋瓜就比较机灵。而勤奋则是一种选择。正是因为这样,大家往往对聪明和勤奋有不同的看法,会把勤奋看成是一种美德,而把聪明往往贬低为小聪明,觉得它是天赋,生来就有的。而在现实生活中靠勤奋成功的人,总是给人一种很悲壮的感觉,经常熬夜,经常苦干,令人尊重,但并不令人羡慕。所以如果可以选择,大家当然希望选择聪明而又不必太辛苦。


也许很多人认为现在的人工智能是别人家的孩子,看上去毫不费力,却取得了很大的成功。而实际上人工智能是一个勤奋听话、精力充沛、极尽完美的笨小孩。我们很难把AlphaGo 和AlphaGo  zero跟聪明关联起来,为什么?因为AlphaGo 的系统里面存储了多达100万盘棋谱,它正是通过学习这些数据,总结出了下棋的策略,进而提前做出布局。


而柯洁和李世石这两个世界的顶级围棋高手,两个人加起来终其一生也不可能下到100万盘棋,所以 AlphaGo靠的还是勤能补拙,AlphaGo Zero它就不再需要输入棋谱,它是从零基础开始学起的,它通过自己左右互搏,自学成才,AlphaGo zero不断探索和积累经验,现在已经是碾压了AlphaGo 。


所以,它们的成功主要是来自于勤能补拙,就像懂事勤奋又刻苦的孩子,取得很大的成功。但是着实不易,非常辛苦,我们由衷地为孩子高兴,又总觉得苦了孩子,总希望他们能多一点聪明,少一点辛劳,这也是我们对人工智能的期待。

人工智能有哪些局限性?

总结成4句话:有智能没智慧,有智商无情商,有专才无通才,会计算不会“算计”。

有智能没智慧:因为现在的人工智能确实是有智能,但是没有意识,没有悟性,缺少综合决策能力,所以我们认为它缺乏智慧。

有智商无情商:是机器人对人的情感理解和交流还处在起步阶段,所以今天的人工智能能做很多事,但是和人交互交流还不够有人情味。

有专才无通才:AlphaGo不会开车,会开车的不会扫地。而人往往是既会开车又能扫地,还可以下棋,可能水平都不是很高,但是样样都能拿得下。人是具有通才的,而今天的人工智能它确实只有专才没有通才。

在我们人类中,有些人心眼比较多,比较会算计人,但今天的人工智能它主要靠的是强力的计算,它们可以说叫有智无心,也更谈不上谋略。所以,人工智能与人相比还是有差距的,虽然它在一些专用的智能上确实超过了人,但在综合能力上距离人还有比较大的差距。


今天以大数据驱动的人工智能,还存在着数据瓶颈、泛化瓶颈、能耗瓶颈、可靠性瓶颈、可解释性瓶颈,以及语义鸿沟瓶颈、可靠可解释等问题。因此,今天人工智能发展还面临着很多瓶颈问题。

可靠性瓶颈


在可靠性上,今天的以深度学习为基础的人工智能,它的性能完全依赖于训练数据的质量。数据投毒,或者所收集的数据里面有数据偏见,数据不均衡,打的标签里面有噪声等,这些问题都会造成训练数据质量不高,而这些不良的训练数据往往会误导人工智能,从而导致可靠性问题。


在利用人工智能进行交互时,人工智能模型往往容易泄露用户的个人隐私,造成了不可靠不可信的后果,这就存在如何保护个人敏感信息或者个人隐私信息的问题,这也是人工智能面临的一个挑战性的问题。


当人工智能模型训练好后,对于输入的测试样本如果叠加一个对抗噪声,往往就使得它的识别率大大降低。我们总是在假定没有噪声的情况下进行训练,一旦出现了对抗噪声,尤其是主动对抗的时候,就使得人工智能系统先输出它的脆弱性。

现在的人工智能模型越来越多,并且越来越复杂,使得模型的可解释性越来越差。所以模型的可解释性成为制约人工智能发展的瓶颈。


模型的复杂度和可解释性之间存在矛盾,我们希望最后可以得到一个负责任的、可追溯的、可理解的人工智能。而现有的人工智能模型并没有达到这个要求,因为它现在过于复杂。大家都希望在未来能够有可解释的人工智能,让我们能够信任它。但是人工智能目前存在的技术瓶颈往往是造成不可信、不可控和不可靠的根源。


比如人工智能算法的大数据杀熟问题,网络诈骗问题,还有大规模杀伤性武器问题;俄乌冲突当中,发现了人工智能杀伤性武器以及无人机武器等;还有德国大众公司还出现了机器人杀人事件,Watson还开错了肿瘤药物导致患者死亡,以及无人驾驶交通伤亡事故频频发生等。所以,我们现在迫切需要更聪明、更靠谱的人工智能,即可靠、可信和可控的人工智能。


今年中国科协推出了10个前沿科学问题,10个工程技术难题和10个产业技术问题,其中,10个前沿科学问题的第二个,就是如何实现可信、可靠,可解释人工智能的技术路线和技术方案。这个是我们重庆邮电大学提交的问题,中国科协还专门给我们颁发了荣誉证书。


1、绿色低碳更灵巧的人工智能


又称为Smart AI,2021年10月24日,中共中央国务院发布了《关于完整准确全面贯彻新发展理念做好碳达峰碳中和工作的意见》中,提出要大力发展绿色低碳产业,也是对人工智能赋能产业提出了新要求,希望人工智能在绿色化助力碳中和上,发挥它的作用。


为此,清华大学智能产业研究院院长张亚勤博士提出了AI+IoT的概念,IoT是物联网,Internet of things。人工智能+物联网绿色低碳的应用场景,我们称之为AIOT,用到了清洁能源和传统能源的融合领域,它可以在两种能源之间实现智能调度,能用清洁能源的时候就用清洁能源,能用传统能源的时候就用传统的。比如一些混合的汽车,既可以用电,也可以用汽油,它可以根据情况随时调度,都是依靠人工智能。


信息和通信技术产业本身需要大型的数据中心。5G快速的发展,它具有大容量、高带宽、高速度等有点,但是它耗电量非常大。可以利用人工智能实现自动休眠来达到节能减排的目标。还有其他新兴产业,比如说绿色城市、绿色交通等,都可以用人工智能+物联网进行绿色化,这些都是人工智能助力产业的绿色化发展。



人工智能本身也在野蛮生长。算法、数据和算力都在进行规模扩张式的发展。网络深度神经网络规模越来越大,参数越来越多,训练样本规模也得越来越大,对资源的消耗也必然越来越高。


以OpenAI提出的自然语言处理领域的GPT模型为例, GPT模型最早参数量只有1.17亿,训练数据需要5个GB,到了GPT-2的时候参数量达到15亿,预训练的数据量达到了40个GB,GPT-3达到1750亿,训练数据量要达到45GB。据说 GDP4它的参数量将达到100万亿,比GPT-3还要大500倍。


如此大量的增长,需要很多人力进行数据样本的标注,所以我们说出现了一大批被AI“累死”的人,大厂里雇了很多人进行数据标注,经常被调侃为被人工智能“累死”的人,以至于有人提出了灵魂拷问,难道得需要有多少人工才能有多少智能吗?因为当前的智能在很大程度上还是建立在人工的基础上,无论是从产业的发展,还是人工智能本身的发展,都呼唤绿色低碳、更灵巧更轻巧的人工智能。



而人类的智慧却体现在“否定”、“遗忘”,“有所为有所不为”等哲学上,通过做减法和主动“选择”,走上一条绿色极简的发展道路。所以我们一顿饭吃一个馒头就可以工作四五个小时,早晨喝一碗稀饭,就可以工作4个小时。中午吃1个馒头就可以下午工作4个小时,晚上有人12点还不睡,精力充沛,由此可见,人类消耗的能量是非常少。


为了实现绿色低碳智能系统我们希望未来人工智能的发展方向是做减法,而不是做加法。当下的人工智能的现状是,如果模型的性能不够好,就增加模型参数,如果数据量不够多,就使用大数据,算力不够了,就启用更大的算力,都是在做加法。但是人往往是在做减法,所以我们希望通过构建更为灵巧的网络模型,通过轻量化的模型来降低对数据量和算力的需求。


要走绿色低碳道路,一方面是把网络进行轻量化设计,变成灵巧的网络。另一方面要增大大模型的开放共享力度,虽然大模型消耗了很多能量,但是如果有更多人使用它,更多的发挥作用的话,平均下来它的耗能也就没那么大了。


习总书记提出来的创新、协调、绿色、开放、共享这五大发展理念,我认为也可以用来指导人工智能的发展。未来的人工智能,首先通过创新来提高人工智能的性能,通过协调来增加人工智能的总体布局,通过绿色来降低它的能耗,通过开放来加大它的共享范围。


2、知识数据双驱动的人工智能



人工智能的发展历程经常被划分为两代,第一代叫知识驱动,第二代叫数据驱动。第一代人工智能主要是基于知识库和推理机来模拟人类的推理和思考行为代表性的成果。比如说IBM公司的Deep Blue和Deeper Blue打败了国际象棋的冠军卡斯帕罗夫。


它的优点是具有很好的可解释性,而且知识作为数据和信息高度凝练的体现,也往往意味着更高的算法执行效率。而它的缺点是完全依赖专家知识。一方面,将知识变成机器可理解、可执行的算法十分费时费力;另一方面,还有大量的知识或经验难以表达建模。因此,应用范围非常有限。所以,在第一代人工智能,虽然知识驱动效率高,但是在如何获取知识,是很困难的事情。



第二代人工智能主要是基于深度学习来模拟人类的感知,比如说视觉、听觉、触觉等。代表性的成果就是我们今天的深度神经网络,它通过收集大量的训练数据并进行标注,然后来训练设计好的深度网络。


优点是不需要领域知识,只需要通过大数据的训练就可以达到甚至超过人类的感知或识别水平。具有通用性强、端到端的“黑箱”或傻瓜特性。缺点是算法非常脆弱,依赖高质量、带标记的大数据以及强大算力。因此,具有鲁棒性差、不可解释,以及不太可靠等瓶颈问题。


前面两代人工智能一个是基于知识驱动的,一个是基于数据驱动的,而我们希望未来第三代人工智能应当是将知识驱动和数据驱动结合起来,充分发挥知识、数据、算法和算力四要素的作用,来建立可解释的鲁棒人工智能理论。



为了探索知识和数据双驱动的人工智能落地,清华大学的张钹院士提了很多思路,它把各种形态的知识,通过一系列AI技术进行抽取、表达后协同大量数据进行计算,进而产生更为精准的模型,并再次赋能给机器和人。目前在若干垂直行业获得初步成功。


华为云提出了影响行业人工智能落地的四个要素:明确定义的应用场景、充沛的算力、可以演进的AI、组织与人才的匹配。但是这种垂直行业成功的人工智能,距离我们通用人工智能却是渐行渐远,因为它需要领域专家,领域专家使得人工智能局限到某个领域里了。而我们希望未来的通用人工智能,不仅仅是一个领域的专家,应当是一个通才。


3、人机物融合的混合人工智能



在2021年5月,习近平总书记在中国科协第十次全国代表大会上的讲话中指出,以信息技术、人工智能为代表的新兴科技快速发展,大大拓展了时间、空间和人们的认知范围。人类正在进入一个人、机、物三元融合的万物智能互联时代。


我们的研究对象由物理-信息系统向物理-信息-人类社会更复杂的系统扩展。工业4.0是德国提出来的,工业4.0的基础是CPS,即物理信息系统。而现在需要在物理信息系统上再增加人类社会或者叫人类的智能,这样就构成了一个三元空间。



人类面临着许多问题,它具有不确定性、脆弱性和开放性;同时人类也是智能机器的服务对象和最终价值判断的仲裁者,因此人类智能与机器智能的协同将会贯穿始终,这就需要将人的作用或者认知模型引入到人工智能当中,从而形成人机混合智能或者叫混合增强智能。


人机混合增强智能有两种形态:一种是人在回路中(Human-in-the-loop)的混合增强智能,一种是人在回路上(Human-on-the-loop)的混合增强智能。Human-in-the-loop,它是将人作为一个计算节点,或者是一个决策节点放置在整个智能回路当中。


而Human-on-the-loop是将人的认知模型引入到人工智能系统,形成一种类人的人工智能。实际上人机混合的概念也不是今天才有的,其实从原始社会的猿猴变成人,人会制造和利用工具,就有了人机混合智能的概念思想。

在机械化时代,人机混合智能延伸和增强了人的体力,不叫混合智能,其实是体能混合体能。而智能化时代,人机混合延伸和增强了人的感知力。今天智能化时代,人机混合延伸和增强了人类的智力,包括感知力增强和智力增强。

比如很多可穿戴的设备,智能手表、智能眼镜、智能服装等,都能够帮助我们构建以人为中心的智能系统。我们希望人工智能未来的发展还得以人为中心,不要变成以机器为中心,这显然是不可取的。所以,人、机、物融合的混合人工智能,就是要构建以人为中心的智能系统。



人机混合智能已经有了很多尝试。可穿戴搬运机器人在马达驱动下,支撑人的上半身,减轻搬运重物时人腰部的负担。马斯克把电极植入人脑,让人脑可以随时直接从计算机中下载或者上传数据,这大幅度提升人的认知能力,相当于给人加了一个外存储空间。所以希望未来人机混合增强智能,能够建立以人为中心的智能形态,保证它可用,好用,可控。


当前的人工智能没有自主的意识,它的价值观主要是由使用者的价值观所决定。因此我们需要通过人机混合的方式,为人工智能立心,从而让人工智能更好地为人类“立功”。人为机器立心,机器为人的“立功”,这是我们所希望的未来发展趋势。



4、可信、可靠可解释的人工智能


人工智能的可解释性问题由来已久,机器学习尤其是深度学习的发展,使得人工智能的模型越来越复杂。这些更复杂、更强大的模型也变得越来越不透明。另外随着大数据的兴起,今天的机器学习模型基本围绕着相关性或者关联性建立的,并不是基于因果性。相关性和关联性不能来解释因果性,从而导致了很多挑战性的问题。比如虚假的关联性,模型的调试性和透明性的缺失,模型的不可控以及不受欢迎的数据放大等。


此类问题不解决,人工智能就会存在着不可信、不可控和不可靠的软肋。2019年欧盟出台了《人工智能道德准则》,明确提出了人工智能的发展方向,应该是“可信赖的”,包括安全、隐私、透明和可解释等。



什么是可解释性问题?2016年,来自谷歌机器学习的科学家 Ali Rahimi 在NIPS大会上表示,当前有一种把机器学习当成炼金术来使用的错误趋势。同年,美国国防高级研究计划局制定了“DARPA Explainable AI (XAI) Program”,希望研究出可解释性的AI模型。



那么什么是可解释性呢?谷歌的科学家在2017年的ICML会议上给了定义:可解释性是一种以人类能理解的语言给人类提供解释的能力,能听得懂才行。所以如何解决人工智能的可解释性问题,这是今天我们面临的非常大的瓶颈。


人有显性知识和隐性知识,隐性知识就是经验直觉,人可以有效地结合两种不同的知识。当前的深度学习是以概率模型得到了隐性知识,而显性知识适合用知识图谱来模拟。


所以,可解释性的人工智能,希望通过引入知识图谱来解决这个问题。目前的深度学习和知识图谱这两个事件,还没有很好地结合到一起。未来希望把知识图谱更好的引入到人工智能里去。


可解释性的要求是对人工智能系统的技术过程和相关的决策过程能够给出合理的解释。技术可解释是要求人工智能作出的决策是可以被人们所理解和追溯的。在对人类生命造成重大影响时,需要人工智能的决策过程有合理的解释。



可解释性人工智能有三大需求,第一,使深度神经网组件变得透明。第二,从深度神经网里面学到语义图。第三,生成人类所能理解的决策解释。



5、非深度神经网络的人工智能


今天AI的成功,在很大程度上是大数据和深度学习的成功。如果把AI未来的发展全部寄托在深度神经网络上,总让人感到有些单调,尽管目前的网络形态也是多种多样的。但是,我们仍然有必要来研究深度神经网络之外的人工智能系统,比如说深度森林、宽度学习等。


它为我们提供了未来人工智能的更多可能,或者让人有更多的选择,为人们提供了多元化的新选择,从而避免了人们不得不被迫选择深度神经网络的无奈。



其实现在都在追风深度神经网络,往往是费了很大劲,效果并没有提升多少。相信未来一定还有更多非深度神经网络的人工智能系统。因为系统的多样性是改善人工智能生态环境的重要保障,比如说南京大学人工智能学院院长周志华教授团队提出来的深度森林。周教授认为深度神经网络之所以成功,主要是基于三个关键因素。


第一具有逐层加工处理的能力,第二是内置特征变换,第三是模型的复杂度要够大。但是这三个因素,并没有要求我们必须使用神经网络模型,其他的模型只要满足这三个特点也是可以的。所以,只要满足以上三点,别的模型也能做到深度学习。


为此,他们就提出了一种新型的深度学习模型叫深度森林。深度森林的基础构件是不可微的决策树,其训练过程并不基于BP算法,甚至不依赖于梯度计算。深度森林的优点:训练简单、效率高,小规模训练数据也可运转,而且在理论分析方面也更容易。



华南理工大学计算机学院的院长陈教授,他提出了宽度学习系统。陈俊龙教授认为,虽然深度结构的网络非常强大,但是大多数的网络都被极度耗时的训练过程所困扰,其中最主要的原因是,上述深度网络都结构复杂并且涉及到大量的超参数。为此,提出了宽度神经网络系统。


宽度网络的优点:


①宽度结构由于没有层与层之间的耦合而非常简洁;


②由于没有多层连接,宽度网络亦不需要利用梯度下降来更新权值,计算速度大优于深度学习;


③网络精度达不到要求时,可以通过增加网络的“宽度”来提升精度,而增加宽度所增加的计算量和深度网络增加层数相比,可以说是微乎其微。


6、开放环境自适应的人工智能



今天AI的成功基本上都是封闭环境中的成功,其中机器学习有许多假设条件。机器学习里面有很多假设,比如对数据的独立同分布的假设,以及数据分布的恒定假设,它通常要假定样本的类别是恒定的,测试数据的类别跟训练数据的类别要一样,不会出现训练时没有遇到的类别。另外样本的属性也是恒定的,测试的时候要求属性特征是完备的。


实际情况是现在越来越多地碰到所谓的开放动态环境。开放环境中一切都会发生变化,类别会发生变化,样本的属性也会发生变化。这要求未来的人工智能系统必须具备环境自适应能力,能够应对未曾训练过的风险挑战。



第二要求人工智能系统的鲁棒性强,比如它抗干扰能力强,稳定性高。在自动驾驶或者无人驾驶领域,情况非常复杂。在实验室的封闭环境下,无论采集多少训练样本,都不可能涵盖所有的情况,因为现实世界远比我们想象要丰富的多。


在自动驾驶的过程中或遇到越来越多以前没有见到的特殊情况,尤其是越是突发事件,越是很少出现的场景,在平常训练不够充分的情况下,非常考验人工智能的自适应性和鲁棒性;即如何在一个开放环境下,通过自主的机器学习,实时的进行数据分析和模型的迭代更新。


所以未来的人工智能一定是开放环境下的人工智能,才能真正达到通用人工智能。而实验室里面的人工智能,它只能针对一些固定的样本,性能可以达到很高,甚至达到将近百分之百的成功率,如果一旦放到丰富多彩的现实世界里面,它就变得非常脆弱。



现有人工智能依赖大量的高质量的训练数据和计算资源,来充分学习模型的参数,在初始建模阶段,由于数据充分可以得到比较理想的效果,在投入使用一段时期后,在线数据内容的更新,就会产生系统性能上的偏差,严重时直接导致系统下线。


在训练数据量有限的情况下,一些规模巨大的深度神经网络也容易出现过拟合,使得在新数据上的测试性能,远低于之前测试数据上的性能。


在特定数据集上测试性能良好的深度神经网络,很容易被添加少量随机噪声的对抗样本欺骗,从而导致系统很容易出现高可信度的错误判断。所以发展鲁棒性可扩展性的智能学习系统,是未来人工智能的重要的研究课题。



最后,我来做一下总结。以上我介绍了未来AI系统发展的六种可能的形态以及各自的发展趋势。下一步,我们需要系统、全面地借鉴人类的认知机理,不仅是神经系统的特性,还有认知系统(包括知识表示、更新、推理等),发展更加具有生物合理性,以及更灵活、更可信可靠的AI系统。唯有如此,未来AI系统才能够实现“不仅勤奋而且更聪明更靠谱”的理想。

 直播预告 

往期精彩推荐点击标题查看文章● 专题|如何获取消费者对电商平台价格和用户权益的信任《人工智能治理与可持续发展实践白皮书》

● AAIG成立一周年!砥砺前行,谱写新时代的科技之歌~请查收这份最新的自我介绍


● AI治理必修第17刊|Meta开发出首个无文字语言AI翻译系统,闽南语翻译安排上!人工智能是否需要神经科学?


 听委员说|AAIG薛晖出席杭州市"两会",提出加快建立人工智能产业的多元协同治理机制


 文本如药?如何通过多样例学习判断有效成分?如何识别辱骂文本?对话质量分析应用场景?AAIG自然语言理解实验室EMNLP专场(上)


 “算法偏见”是概念炒作吗?「这个AI不太冷」第3期带你揭秘现实AI!

更多人工智能治理和可持续发展好文
点击下方名片关注和星标【阿里巴巴人工智能治理与可持续发展研究中心】
👇AAIG课代表,获取最新动态就找她

 关注公众号发现更多干货❤️


有启发点在看喔👇
继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存